#Google TPU
高盛:成本暴降70%!GoogleTPU強勢追趕,性價比已追平輝達
高盛表示,Google/Broadcom 的TPU正在迅速縮小與輝達GPU在推理成本上的差距。從TPU v6升級至TPU v7,單位代幣推理成本下降約70%,與輝達GB200 NVL72基本持平。這並不意味著輝達地位被動搖,但它清晰地表明,AI晶片競爭核心評價體系正在從“誰算得更快”,轉向“誰算得更便宜、更可持續”。在AI資本開支仍維持高位、但商業化壓力不斷上升的當下,市場關注點正在發生一場悄然卻深刻的轉移:大模型還能不能繼續“無視成本地跑下去”。據追風交易台,高盛最新發佈的AI晶片研究報告,並未延續市場熟悉的“算力、製程、參數規模”對比,而是從更貼近商業現實的角度切入——推理階段的單位成本。通過建構一條“推理成本曲線”,高盛試圖回答一個對AI產業至關重要的問題:在模型進入高頻呼叫階段後,不同晶片方案在折舊、能耗和系統利用率等約束下,每處理一百萬個token究竟需要付出多少真實成本。研究結論指向了一次正在加速、但尚未被充分消化的變化:Google/Broadcom 的TPU正在迅速縮小與輝達GPU在推理成本上的差距。從TPU v6升級至TPU v7,單位token推理成本下降約70%,使其在絕對成本層面與輝達GB200 NVL72基本持平,部分測算情形下甚至略具優勢。這並不意味著輝達的地位被動搖,但它清晰地表明,AI晶片競爭的核心評價體系正在從“誰算得更快”,轉向“誰算得更便宜、更可持續”。當訓練逐漸成為前期投入,而推理成為長期現金流來源,成本曲線的斜率,正在取代峰值算力,成為決定產業格局的關鍵變數。一、從算力領先到成本效率,AI晶片競爭的評價標準正在切換在AI發展的早期階段,訓練算力幾乎決定了一切。誰能更快訓練出更大的模型,誰就擁有技術話語權。然而,隨著大模型逐步進入部署與商業化階段,推理負載開始遠遠超過訓練本身,成本問題被迅速放大。高盛指出,在這一階段,晶片的性價比不再只由單卡性能決定,而是由系統層面的效率共同塑造,包括算力密度、互聯效率、記憶體頻寬以及能源消耗等多重因素。基於這一邏輯建構的推理成本曲線顯示,Google/Broadcom TPU在原始計算性能和系統效率上的進步,已經足以在成本維度上與輝達正面競爭。相比之下,AMD和亞馬遜Trainium在代際成本下降幅度上仍較為有限。從現階段測算結果看,兩者的單位推理成本仍明顯高於輝達和Google方案,對主流市場的衝擊相對有限。二、TPU成本躍遷的背後,是系統工程能力而非單點突破TPU v7實現大幅降本,並非來自單一技術突破,而是系統級最佳化能力的集中釋放。高盛認為,隨著計算晶片本身逐步逼近物理極限,未來推理成本能否繼續下降,將越來越依賴“計算相鄰技術”的進步。這些技術包括:更高頻寬、更低延遲的網路互聯;高頻寬記憶體(HBM)和儲存方案的持續整合;先進封裝技術(如台積電CoWoS);以及機架級解決方案在密度與能效上的提升。TPU在這些方面的協同最佳化,使其在推理場景中展現出明顯的經濟性優勢。這一趨勢也與Google自身的算力部署高度一致。TPU在Google內部工作負載中的使用比例持續上升,已廣泛用於Gemini模型的訓練與推理。同時,具備成熟軟體能力的外部客戶也在加速採用TPU方案,其中最引人注目的案例是Anthropic向Broadcom下達的約210億美元訂單,相關產品預計將在2026年中開始交付。不過,高盛同時強調,輝達仍然掌握“上市時間”優勢。在TPU v7剛剛追平GB200 NVL72之際,輝達已經推進至GB300 NVL72,並計畫在2026年下半年交付VR200 NVL144。持續的產品迭代節奏,仍是其維持客戶黏性的關鍵籌碼。三、投資含義再平衡:ASIC崛起,但輝達的護城河尚未被擊穿從投資視角看,高盛並未因TPU的快速追趕而下調對輝達的判斷。該機構仍維持對輝達與Broadcom的買入評級,認為兩者最直接繫結AI資本開支中最具可持續性的部分,並將長期受益於網路、封裝和系統級技術升級。在ASIC陣營中,Broadcom的受益邏輯尤為清晰。高盛已將其2026財年每股收益預期上調至10.87美元,較市場一致預期高出約6%,並認為市場仍低估了其在AI網路與定製計算領域的長期盈利能力。AMD和亞馬遜Trainium當前仍處於追趕階段,但高盛也指出,AMD的機架級方案存在後發優勢的可能性。預計在2026年末,基於MI455X的Helios機架方案有望在部分訓練與推理場景中實現約70%的推理成本下降,值得持續跟蹤。更重要的是,這份研報給出的並非“贏家通吃”的結論,而是一幅逐漸清晰的產業分工圖景:GPU繼續主導訓練與通用算力市場,而定製ASIC在規模化、可預測的推理負載中不斷滲透。在這一過程中,輝達的CUDA生態與系統級研發投入仍構成堅實護城河,但其估值邏輯也將持續接受“推理成本下行”的現實檢驗。當AI真正進入“每一個token都要算回報”的階段,算力競爭終究要回到經濟學本身。TPU成本暴降70%,並不是一次簡單的技術追趕,而是一次對AI商業模式可行性的關鍵壓力測試。而這,或許正是GPU與ASIC之爭背後,市場最應認真對待的訊號。 (invest wallstreet)
Google TPU與輝達GPU對比分析
市面上有兩類比較典型的GoogleTPU和輝達GPU對比分析,一類是純技術層面討論,晦澀難懂,另一類會講得斬釘截鐵,但可信度難以判斷。今天我分享一篇通俗易懂,且信源可靠的TPU和GPU對比分析文章,信源來自於The Information對Google、輝達、蘋果等公司員工的訪談。租用最先進的GPU與最先進的TPU,那個性價比更優?這取決於雲服務提供商(註:AWS、Azure、Google雲)對GPU的收費標準,該標準可能會根據開發者對該晶片系統的承諾(使用)期限而有所不同。不過,由於在這些系統上運行應用程式涉及到軟體問題,因此很難對它們進行直接比較。對於已經使用輝達的CUDA程式語言在伺服器晶片上運行人工智慧的客戶來說,租用輝達晶片更具成本效益,而有時間和資源重寫程序的開發者則可以通過使用TPU來節省資金。不過,對於大多數開發者而言,輝達的軟體能讓他們快速且輕鬆地開始在GPU上運行人工智慧應用程式。像Anthropic、蘋果和Meta這樣經驗豐富公司在使用TPU時可能面臨的挑戰更少,因為他們更擅長編寫在伺服器晶片上運行人工智慧的軟體。根據對Google和輝達前員工的採訪,TPU相比GPU具有潛在的成本優勢,這取決於客戶運行的AI計算工作負載數量及其類型。對於使用GoogleGemini模型的客戶來說,TPU的成本效益可能尤為顯著,因為這些模型是基於TPU開發的。卓哥理解:1.價格不能直接比, 看合同期限,租1年和租3年價格肯定不同。2.絕大部分開發人員已經用慣了輝達CUDA軟體系統,用TPU會有遷移成本。3.基於TPU開發的大模型更具成本效應。我已經在不少於3處靠譜信源看到,基於TPU開發的Gemini相比於基於GPU開發的ChatGPT更具成本優勢。輝達首席執行長黃仁勳曾表示,即便競爭對手的晶片定價為零,企業們仍會更青睞輝達的晶片。這種說法精準嗎?事情並非如此簡單。生產輝達晶片的台積電會謹慎地避免將過多的晶片製造和封裝產能投入到單一公司,因此輝達不太可能獲得其滿足客戶需求所需的全部產能。由於輝達通常無法獲得足夠的產能來滿足整體需求,市場對其競爭對手的晶片將會有需求。卓哥理解:台積電不希望輝達一家獨大。其實下游晶片代工廠產能給誰很重要的,不是說晶片設計公司想要多少產能就有多少產能。大摩不是說GoogleTPU 2026年要產300萬顆(利用博通與台積電良好關係)嗎?最近又傳出消息說今年不一定能產300萬顆,台積電可能沒這麼多產能給Google。最先進的TPU(Ironwood)和最先進的GPU(Blackwell)在計算能力或其他關鍵指標(如能效)方面有什麼區別?一位行業高管表示,以每秒兆次浮點運算(FLOPS)來衡量(卓哥註:這是AI開發人員衡量晶片計算能力的常用方式。),Google最先進的TPU在單晶片基礎上的性能是輝達最先進GPU的一半。Google可以將搭載數千個TPU的伺服器整合到一個計算單元中,這使得它們在開發新的人工智慧模型時特別有用且具有成本效益,而輝達最多隻能連接256個GPU。當然輝達的晶片客戶可以通過使用額外的網路電纜連接其資料中心的伺服器來克服這一限制。卓哥理解:單兵作戰,TPU性能只有GPU一半,但TPU可以用人海戰術堆料。TPU運行AI的方式與GPU有何不同?GPU能夠處理各種各樣的計算任務,從渲染視訊遊戲圖形到訓練大型語言模型。這種晶片在機器學習模型所需的重複性數學運算方面表現出色,特別是將數字網格相乘的過程,也就是所謂的矩陣乘法。Google的TPU更加專門化,能夠比GPU更快地處理矩陣乘法和運行某些AI模型。TPU之所以能做到這一點,是借助了脈動陣列——一種由簡單計算器組成的網格,這些計算器以有節奏的模式相互傳遞資料。這種設計使數字能在計算過程中持續流動,無需不斷從晶片記憶體中調取資料,從而避免了時間和能量的浪費。TPU效率更高,因為它只做一件事,但這也意味著它們只在特定軟體上運行良好。GPU可以被用來完成更多種類的任務。卓哥理解:之前還看過一個訪談,說TPU的風險之一就是通用性不好,中途切換做其他(非初始設定)任務的效果遠不如GPU。在處理大語言模型或大型視覺、視訊模型方面,TPU與GPU相比有那些優缺點?TPU為Google的人工智慧開發者提供了相較於GPU的成本優勢,因為該公司的人工智慧模型、應用程式和資料中心在設計時就考慮到了TPU。但TPU僅能與某些人工智慧軟體工具(如TensorFlow)順暢協作。然而,大多數人工智慧研究人員使用PyTorch,該工具在GPU上運行得更好。TensorFlow和PyTorch使開發者無需從頭編寫特定的軟體程式碼,就能訓練和運行人工智慧模型。對於視訊和視覺模型,TPU擅長執行圖像識別所需的重複性數學運算。它們通過將摺積(圖像模型中的核心計算)轉換為矩陣乘法來處理這些運算。但一些工程師表示,在開發視覺模型方面,GPU優於TPU,因為這一過程通常涉及對複雜圖像變換的試驗,例如旋轉、裁剪或調整顏色。那些公司使用TPU?據蘋果前員工及其人工智慧團隊發表的研究論文稱,蘋果長期以來一直使用TPU來訓練其最大的語言模型。人工智慧圖像公司Midjourney在2023年表示,它正在使用TPU來開發自己的模型。據一位瞭解這一轉變的人士透露,人工智慧開發商Cohere此前使用TPU開發模型,但去年由於在早期版本的TPU上遇到技術問題,轉而使用GPU。卓哥補充:還有其他案例是,一直用GPU然後切換去用TPU的公司。Google要在Google雲之外大量銷售TPU,需要具備那些條件?Google需要徹底改革其整個供應鏈,效仿輝達的商業模式,不僅要從代工廠獲得足夠的晶片,還要確保客戶能夠安裝這些晶片並可靠地使用它們。這意味著Google必須投入大量資金來發展銷售分銷網路,包括聘請生產晶片容納裝置的伺服器設計師,以及僱傭眾多工程師為TPU買家提供客戶支援和其他服務。卓哥理解:如果Google要外租或者賣TPU,先得到台積電拿到足夠產能配額,此外還得組建銷售和工程師支援團隊。生產最先進的TPU與生產最先進的GPU的生產成本相比如何?潛在成本可能相近。Google為Ironwood在台積電採用了比輝達為Blackwell所使用的更昂貴、更先進的晶片製造技術。但Ironwood晶片體積更小,這意味著台積電可以從一片晶圓上切割出更多晶片。這彌補了與昂貴矽片相關的額外成本。瞭解生產情況的人士表示,這兩款晶片都使用了相同類型的高頻寬記憶體。Google生產多少個TPU?這與其他人工智慧晶片相比如何?據摩根士丹利的最新估計,Google計畫在2026年生產超過300萬個TPU,2027年生產約500萬個。一位瞭解TPU項目的Google員工表示,公司已告知部分TPU客戶,其計畫在2027年生產更高數量的TPU,但目前尚不清楚台積電是否會同意在該年度生產這麼多TPU。Google通過博通公司訂購其最強大的TPU,博通與台積電有合作,同時也為TPU晶片本身提供一些輔助技術。據兩位瞭解生產情況的人士透露,輝達目前生產的GPU數量大約是Google生產的TPU的三倍。卓哥補充:除了博通,Google也已在與聯發科合作。博通在TPU的研發中扮演什麼角色?Google通過博通在台積電生產最強大的TPU,而且博通還負責TPU的物理設計,包括至關重要的晶片封裝,並且實質上是根據Google建立的藍圖來開發這款晶片。晶片封裝指的是晶片的組裝,隨著晶片上電晶體的縮小變得愈發困難,這一環節已成為整個流程中更為重要的部分。博通還為Google提供了設計TPU的一項關鍵智慧財產權:序列器/解串器,業內稱之為SerDes。這是實現高速資料在TPU之間傳輸以支援平行計算的最佳技術,通過這種技術,多個晶片可以協同工作——這是開發大語言模型的重要一步。Google和博通有時會因博通的TPU價格而產生分歧,這促使Google尋求聯發科等其他合作夥伴。聯發科即將生產一款性能稍弱的TPU,旨在幫助Google降低其人工智慧運行成本。博通從開發TPU中獲得的分成是多少?據分析師稱,這至少有80億美元。如果Google出售或出租TPU,讓它們進入其他公司的資料中心,這在經濟層面可能會產生什麼影響?目前尚不清楚Google向其雲客戶出租TPU能產生多少毛利率。除了伺服器晶片租賃業務外,它還可以向雲客戶銷售許多其他服務。這位前TPU高管表示,如果Google將TPU出售或出租給其他公司的資料中心,那麼這些設施需要按照高度特定的方式設計,類似於Google的資料中心,才能像Google在自身人工智慧應用中那樣,充分利用TPU帶來的成本優勢。此外,這樣做意味著Google將放棄從雲客戶那裡獲得的其他類型收入,比如儲存和資料庫相關收入,因此它可能會向TPU買家額外收費,以彌補這部分潛在的收入損失。.Google為何要追求一種更接近輝達的商業模式?Google已向潛在的TPU客戶表示,一些科技和金融服務公司出於安全等原因,希望將TPU安置在自己的資料中心——即非Google的資料中心。Google一直在與競爭對手雲服務提供商洽談為部分客戶託管TPU事宜。(卓哥註:典型如甲骨文)讓TPU得到更廣泛的應用,也有助於Google說服更多客戶使用其Gemini人工智慧模型,這些模型是針對TPU進行最佳化的。與運行TPU的軟體相比,開發者更熟悉輝達晶片及其運行的軟體。像JAX、PyTorch XLA這樣的新解決方案是否正在縮小這一差距?簡而言之,答案是否定的,不過Google正努力改變這一現狀。而且,Google還向潛在的TPU客戶推介將這些晶片與特製的Google軟體配合使用,這樣能讓晶片的運行更為便捷。 (卓哥投研筆記)
輝達:三十年未有之大變局
目前,Google正積極接觸那些依賴租賃輝達晶片的小型雲服務提供商,勸說它們在資料中心託管Google的TPU處理器。首戰告捷,Google已與倫敦的Fluidstack達成協議,將在紐約的一個資料中心部署TPU。同時,Google的觸角伸向了為OpenAI建造資料中心的Crusoe,以及向微軟租賃晶片並與OpenAI簽有供應合同的CoreWeave——後者被業內視為輝達的親兒子。這一系列動作,意圖再明顯不過:Google不僅要搶奪輝達的客戶,更要直接切入其最核心、利潤最豐厚的AI算力供應鏈。輝達以200億美元現金,收購初創公司Groq的核心資產,這筆交易不僅刷新了輝達自身的歷史收購紀錄,遠超其2019年以70億美元收購Mellanox的規模,更以雷霆之勢,將一顆冉冉升起的輝達挑戰者直接納入麾下。此次遠非一次簡單的收購,而是一場精心策劃的戰略圍剿。畢竟已經冒出來一家GoogleTPU了,輝達不允許再有任何真正的挑戰者存在,要麼被擊敗,要麼被收購。01Google的決心Google為這一戰所做的鋪墊,遠比我們想像的更為漫長,也更為深遠。早在2015年,第一代TPU v1的性能優勢,就已經在AlphaGo的演進中得到了最戲劇化的體現:1)AlphaGo Fan(2015年10月):擊敗歐洲冠軍樊麾的版本,運行在Google雲上,動用了1202個CPU和176個GPU的分佈式叢集。2)AlphaGo Lee(2016年3月):擊敗李世石的版本,同樣在雲端運行,但硬體已取代為僅48個第一代TPU。計算裝置從上千個銳減到幾十個,背後的電力、機房空間和維運成本呈數量級下降。3)AlphaGo Master(2017年5月):戰勝世界第一柯潔的版本,運算量僅為上一代的十分之一,甚至可以在單台伺服器上運行,僅需4個第一代TPU。從1202個CPU+176個GPU,到4個TPU。這組對比再直觀不過地揭示了專用AI晶片帶來的效率飛躍。第一代TPU的成功,迅速從實驗室走向了Google龐大的產品線,被部署到Google搜尋、廣告、YouTube以及雲平台等服務的每一次請求中,處理著每天數百億次的推理任務。自此,Google意識到,他們需要的不是一顆更快的通用晶片,而是一把為特定任務量身定製的手術刀。TPU項目應運而生,其設計哲學極其清晰:為神經網路推理任務做極致最佳化,追求極致的性能功耗比,放棄GPU使用的32位浮點數,轉而使用8位整數INT8進行計算。這大幅減少了電晶體數量、功耗和記憶體頻寬需求,而精度損失對於許多推理任務而言是可接受的。但是TPU v1僅專注於推理,而AI發展的瓶頸正迅速轉向需要巨大算力的大模型訓練環節。Google的TPU迭代之路就此全面展開,其升級不僅體現在單晶片性能,更在於系統級和生態級的突破。此後,TPU迅速迭代:1)TPU v2/v3:首次支援訓練任務。更重要的是,Google提出了 “TPU Pod” 的概念,通過高速網際網路絡將成千上萬個TPU晶片連接成一個超級電腦,為訓練大型模型提供了可能。2)TPU v4:性能顯著提升,並開始通過Google雲對外提供服務,但主要客戶仍是Google自身和少數雲使用者。3)TPU v5p:被視為一個重大飛躍,在一些基準測試中與輝達H100相當。同時,推理需求再次爆發,v5系列中更側重低價的v5e版本,將戰略重心轉回高性價比、高吞吐量的推理,旨在以更低成本服務海量使用者。4)TPU v6 (Trillium) 與 v7 (Ironwood):最新的兩代產品。TPU v6在理論算力上已非常接近輝達H200,而v7則進一步縮小了與輝達旗艦產品在發佈時機和理論算力上的差距。v7 Ironwood首次支援FP8計算格式,單晶片FP8算力與輝達B200非常接近,屬於同一性能梯隊。在系統層面,由近萬顆晶片組成的Ironwood超級叢集總算力也達到了與輝達Blackwell系統相當的等級。Google的策略很清晰,從滿足內部需求出發,用十年時間,逐步將TPU打造成一項可對外銷售的雲端運算核心服務——2025年,GoogleTPU全年出貨量預計為250萬顆,其中v5系列佔190萬顆,v6系列佔60萬顆;2026年,預計全年出貨量將高達400萬顆,其中v7 Ironwood佔據主導地位將超過200萬顆。從數量上來看,輝達資料中心GPU在2026年出貨量約600萬顆,TPU的追趕勢頭已經不容小覷。02輝達的正面交鋒Google的戰略,正在發生根本性轉變:從自產自用的封閉生態,轉向直面市場的晶片供應商。2023-2026四年時間,GoogleTPU的總產量預計高達800萬顆。然而,僅2027和2028兩年,其新規劃的總產量就高達1200萬顆。這意味著,Google計畫用未來兩年時間,生產遠超過去四年總和的晶片。這種擴張速度在半導體行業堪稱罕見,不僅遠超市場預期,更清晰地指向一個目標——大規模商業化。如此龐大的產能規劃,已遠遠超出Google自身雲服務Google Cloud的預期需求。兩年1200萬顆的規模,瞬間將TPU推向了與一線AI晶片廠商比肩的層級。這筆產能經濟帳,是Google轉型的核心動力。以此推算,若Google在2027年實現100萬顆TPU的對外銷售(約佔其當年規劃產量500萬顆的20%),即可創造約260億美元的新增營收。作為對比,這相當於Google雲2024年全年營收的相當大一部分,凸顯了其成為新增長極的潛力。若2027年500萬顆、2028年700萬顆TPU的預測成真,那麼到2028年,GoogleTPU的年產量將直逼輝達GPU的預計出貨規模。這意味著在短短兩年內,Google可能從一個主要的晶片消費者,轉變為一個能在供應量上與輝達正面交鋒的競爭者。此前,TPU如同GoogleAI商業版圖的私人彈藥庫,專為驅動其搜尋、廣告、YouTube及雲平台AI服務而最佳化,這種垂直整合帶來了極高的效率和性能壁壘。然而,將其轉化為對外銷售的商品,意味著Google要直面截然不同的商業規則:標準化、軟體生態、客戶支援、市場價格競爭。Google的突破口在於提供 “AI解決方案”而非“AI通用晶片” 。它可以將TPU與自家強大的AI軟體棧(如TensorFlow、JAX)、雲服務和預訓練模型進行打包,為客戶提供“開箱即用”的AI能力,以降低客戶整體擁有成本TCO。但這套策略也面臨嚴峻挑戰:輝達的CUDA生態歷經十餘年建設,已成為AI開發的事實標準,Google需要建構一個堪比CUDA的、開放且繁榮的開發者生態,這比製造晶片本身更為艱難;第三方客戶是否願意將AI未來押注在Google晶片上?這取決於TPU的性能、性價比、軟體相容性、長期支援承諾,以及客戶對“不被單一雲廠商繫結”的深度顧慮;作為後來者,TPU必須在性能或成本上提供顯著優勢,才能說服客戶遷移已基於輝達GPU建構的複雜工作流。頭部AI公司動向上看,TPU的吸引力是真實的。AI獨角獸Anthropic此前使用亞馬遜的Trainium晶片,最近被發現在招聘TPU核心工程師;馬斯克的xAI也對採購TPU表現出濃厚興趣。這些領先的模型開發商對算力成本極為敏感,它們的傾向是行業趨勢的最佳觀察——畢竟2025下半年,圍繞GoogleTPU的開發者活躍度也激增了近100%。GoogleTPU的產能激增,是一部剛剛拉開的序幕而已。前方的核心懸念早已不再是技術,而是商業模式的抉擇:Google能否成功將其技術優勢轉化為市場認可的開放生態和客戶信任?這場Google十年佈局的下半場,將決定TPU是止步於一個有力的挑戰者,還是真正成為重塑AI算力格局的顛覆性力量。面對圍攻,輝達並未坐以待斃。其反擊策略是:開放生態,以退為進。輝達正式發佈NVLink Fusion技術,允許資料中心將輝達GPU與第三方CPU或定製化AI加速器混合使用。這看似輝達正式打破自身硬體生態壁壘,實則是以GPU為核心,建構一個更包容、更強大的“輝達中心化”生態系統。輝達真正的核心壁壘,還是在於其軟體生態CUDA——畢竟主流AI框架無論是TensorFlow還是PyTorch都是通過呼叫CUDA的API進而在GPU上執行計算,其背後都是對CUDA庫函數的呼叫(如TensorFlow和PyTorch都會呼叫cuDNN來執行核心的神經網路計算)。03AI戰爭進入整合階段表面上看,這是一筆資產收購。但細究協議條款,其核心是一次典型的矽谷式人才收購。輝達並非全盤買下Groq公司,而是達成了一項“非獨家技術許可協議”,進而獲得Groq推理技術的授權。同時核心團隊整體遷移,Groq創始人兼首席執行長Jonathan Ross、總裁Sunny Madra,以及其他高級領導層將加入輝達,以推進所授權的技術。這種操作模式在科技巨頭間已屢見不鮮,2024年微軟也曾以6.5億美元挖走Inflection AI的創始人與核心團隊。其高明之處在於:既能以最快速度獲取頂尖人才和核心技術,又能最大程度規避傳統併購可能引發的反壟斷審查和整合難題。對於輝達而言,200億美元買下的不僅是技術,更是由前GoogleTPU核心班底組成的團隊。畢竟已經冒出來一家GoogleTPU了,輝達不允許再有任何真正的挑戰者存在,要麼被擊敗,要麼被收購。Groq團隊中匯聚了大量前GoogleTPU工程師,堪稱GoogleTPU核心班底的二次創業。他們帶著在Google未竟的抱負,旨在打造一款超越GPU和TPU的專用AI推理晶片。同時成本上,Groq其解決方案可低至同等性能GPU的十分之一,進而精準地擊中了接下來即將興起的AI產業推理階段的核心痛點,對輝達在推理市場的統治地位構成了直接威脅。黃仁勳絕非意氣用事。這筆天價收購背後,是輝達面對複雜競爭格局的深謀遠慮。訓練市場輝達已近乎壟斷,但推理市場格局未定。Groq在低延遲、高並行推理場景所展現出來的優勢,正吸引著那些對成本和延遲敏感的企業。通過收購,輝達直接將最具顛覆性的技術路線收入囊中,這本質上是一次昂貴的防禦性收購。長期來看,對於AMD、博通以及其他AI晶片初創公司,競爭環境更加惡劣。它們不僅要在技術上對抗輝達的“GPU+LPU(TPU)”組合拳,還要在資本和生態上應對輝達的進攻。如今回望,Google為這一戰所做的鋪墊,遠比我們想像的更為漫長,也更為深遠,但同時也更勝券在握。 (新財富)
Anthropic打響「去CUDA」第一槍!210億美元豪購Google100萬塊TPU
【新智元導讀】未發先贏,也只有Anthropic了!Claude一小時寫完Google一整年程式碼震撼全網,甚至,他們豪購100萬塊GoogleTPU自建超算。AI軍備賽拐點,或許就在這一年。2026年開局,Anthropic未發一彈已佔先機!Google首席工程師Jaana Dogan連發多帖,高度讚揚Claude Opus 4.5——僅用一小時,便復現了一個曾讓Google工程師鑽研整年的AI系統。另一個前Google和Meta科學家Rohan Anil觀點更具衝擊力:若借助Opus的智能編碼能力,自己早期長達六年的探索工作,可被高度濃縮至幾個月內完成。自發佈過去一個多月,Claude Opus 4.5真正的實力爆發了。沒有圖像/音訊模型、巨大的上下文,僅有一款專注編碼的Claude,Anthropic依舊是OpenAIGoogle最有力競爭者。這究竟是什麼神仙打法?聯創Daniela Amodei給出了一個直白有力的回答,「少即是多」。一直以來,Anthropic都在押注用最少的資源,做更多的事,才不會掉隊,始終跑在AI最前沿。豪購100萬塊TPU,自建超算相較於模型發佈,更重大的一件事是,Anthropic也要自建超算了。權威機構SemiAnalysis爆出,Anthropic準備買下近100萬塊TPU v7晶片。這批晶片將從博通直接下單,並將其部署在自控基礎設施中。整個部署架構是這樣的:Anthropic持有TPU的所有權,基礎設施部分交給了TeraWulf、Hut8和Cipher Mining合作夥伴來提供。至於現場的實際落地維運,比如布線、開機測試、上線驗收和日常遠端管理這些活,都外包給了Fluidstack來全權負責。目前,Google雖暫未公佈TPU v7單價,但依據行業推測,大概在15,000–25,000美元之間。Anthropic一出手就是100萬張,此前爆料稱,這筆交易金額或達210億美元。對於輝達來說,將丟失300億美元(B200)潛在大訂單。然而,這筆交易最危險的地方不在金額,而在於結構:這意味著,Anthropic自有超算將不再依賴CUDA生態,不再被雲廠商「算力稅」抽成,將算力主權握在手中。有網友表示,這顯然是一件大事。Google現在大力推行商用晶片戰略,這將在未來催生一個基於TPU建構的生態系統。畢竟,Google已經用Gemini 3實證了,不用GPU,TPU也可以訓出強大模型。2026年AI生死局,反向押注如今進入2026年,AI行業已演變為「暴力規模與效率」的較量。作為規模派的代表,OpenAI投入1.4兆美元用於算力和基礎設施建設。相較之下,Anthropic卻選擇了一條不同的道路——「花小錢辦大事」(Do more with less),把籌碼押在了三件事上:更高品質、結構更好的訓練資料明顯加強模型推理能力的後訓練技術以及極度現實的目標:讓模型跑得更便宜、更容易被大規模採用在CNBC採訪中,Daniela Amodei強調,公司一直以來都以審慎的態度利用資源。下一階段的勝利,不會僅靠最大規模的預訓練任務來贏得,而是取決於每一美元算力能交付多少能力。Amodei稱,我們在Anthropic一直以來的目標是——在這個單純依賴大量算力的領域運作時,儘可能審慎地利用我們擁有的資源。就算力和資本而言,Anthropic擁有的資源一直只是競爭對手的一小部分。然而,在過去幾年的大部分時間裡,我們都擁有最強大、性能最好的模型,一以貫之。當然,這並不意味著Anthropic「沒錢」。恰恰相反,這家公司目前已經鎖定了約1000億美元規模的算力承諾,而且他們自己也承認,如果要繼續站在前沿,這個數字只會繼續飆升。他們並不是否認Scaling。他們賭的是:規模並不是唯一的槓桿。Anthropic並沒有把自己定位成一個面向大眾的「消費級AI明星產品」。它更像是一個企業優先的模型供應商。Claude的主要收入來源,是被嵌入到別人的產品、工作流和內部系統中。這類場景雖無噱頭,但黏性更強、更接近真實生產力。Anthropic表示,他們的收入已經連續三年實現同比十倍增長。更罕見的是,他們還建構了一張非常不尋常的銷售策略:「Claude幾乎出現在所有主流雲平台上,包括那些同時也在賣自家競爭模型的雲廠商。」Daniela Amodei對此的解釋很直白:不是緩和關係,而是被客戶需求倒逼。大型企業希望在雲廠商之間保有選擇權,而云廠商也不願意因為模型問題失去最大客戶。下一階段真正的贏家,可能不是那個燒錢最多的實驗室,而是那個能在實體經濟承受範圍內持續改進的公司。「指數級增長會持續,直到它停止。」2026年真正的問題是:如果那條被整個行業奉為信仰的曲線,真的開始失靈——這場由算力堆起來的AI軍備競賽,是否還能體面收場?Claude Opus 4.5,刷屏了如今,全網都被Claude Opus 4.5震撼到了。Helius首席執行長表示,「Opus 4.5簡直瘋狂到離譜」。本人已程式設計十年,它卻可以根據提供系統設計指導,以及明確的自我驗證路徑,完成任何要求的任務。有開發者在短短半小時內,不寫一行程式碼,建構出一款iOS應用。同樣地,還有人在20分鐘內打造了類似ESPN風格的應用。有人用Claude程式設計一個程序,用攝影機記錄下了花開的時刻。就連Karpathy幾天前發文,自己也上手Claude Code,讓其接入智能家居系統。不僅如此,Claude Code不僅適用於程式設計,Pietro Schirano還將原始DNA資料輸入,並利用它找出了一些與健康相關的基因。One More Thing去年3月12日,《紐約時報》報導,Google持有Anthropic公司14%的股份。2024年,Anthropic將亞馬遜雲服務(AWS)確定為其主要訓練合作夥伴;亞馬遜將向Anthropic追加投資40億美元。此外,Zoom也有Anthropic部分股權。最近,Google被傳出正在洽談追加投資Anthropic。新一輪融資或將使Anthropic的估值突破3500億美元。不得不讓人懷疑,Google是不是要在2026年收購Anthropic?Claude Code要併入Google了?不過,Anthropic如此成功,有必要賣給Google嗎?而且,Anthropic一貫標榜「安全AI」,一旦被收購,「Google+Anthropic」毫無疑問地將終結AI競賽,OpenAI、微軟、輝達等另一方會甘心嗎?(新智元)
難怪高通急了
2025年底,一則消息讓聯發科成為了半導體行業關注的焦點。據報導,聯發科為Google操刀的首款TPU v7e將於2026年第一季度末進入風險性試產,並已拿下下一代TPU v8e訂單。更令人矚目的是訂單量的爆發式增長——聯發科向台積電協商的CoWoS年產能從2026年的約1萬片倍增至2萬片,而到2027年更是暴增至15萬片以上,是2026年的七倍以上。這意味著什麼?市場估算,光是v7e從2026年至2027年的出貨,總計可望為聯發科貢獻超過兩個股本的獲利。聯發科CEO蔡力行此前設定的目標是2026年雲端ASIC相關營收達10億美元,到2027年則達到數十億美元規模。從目前的訂單增長態勢來看,這個目標顯然是有些保守了。有趣的是,聯發科此前在ASIC業務上一直保持低調,從未透露客戶名稱。保密程度過高做法一度讓市場產生誤解,認為是"做不好所以不願意講",甚至傳出v7e進度延遲的消息。但隨著v7e確定進入風險性試產,外界才意識到聯發科的實力被嚴重低估。更值得注意的是,由於Google需求強勁,等不及v7e投片生產到完成CoWoS封裝與測試的八九個月周期,只要後續認證進度順利,v7e試產的產出也視同量產產品供應給客戶。這種試產即量產的模式,既解決了Google趕著要貨的燃眉之急,也將為聯發科盡快帶來相關業績貢獻。聯發科,靠AI大賺首先需要說明的是,聯發科能夠在雲端ASIC市場站穩腳跟,核心競爭力在於其SerDes(序列器/解串器)技術。在今年的輝達GTC大會上,聯發科展示了其Premium ASIC設計服務,顯示其與輝達的合作已擴展至IP領域。聯發科的SerDes技術涵蓋晶片互連、高速I/O、先進封裝與記憶體整合。其112Gb/s DSP基於PAM-4接收器,在4奈米FinFET製程上實現超過52dB損耗補償,意味著更低的訊號衰減和更強的抗干擾特性。現在聯發科更推出專為資料中心使用的224G SerDes,並已完成矽驗證。事實上,除了這兩天曝出的Google的TPU訂單,聯發科此前在雲服務商市場也取得了突破。據調研機構指出,部分雲服務提供商(CSP)已在評估輝達及聯發科IP組合的定製化設計晶片。報導顯示,聯發科即將獲得Meta一款2奈米工藝ASIC的大額訂單,該晶片代號為Arke,專注於後訓練和推理功能,可能在2027年上半年實現量產。值得一提的是,此前聯發科還宣佈與輝達合作設計GB10 Grace Blackwell超級晶片,該晶片將為新推出的NVIDIA DGX Spark提供動力。GB10採用了聯發科在設計節能、高性能CPU、記憶體子系統和高速介面方面的專業知識。聯發科CEO蔡力行也透露,設計複雜度更高的接續專案已在進行,預計2028年起貢獻營收。此外,公司持續積極與第二家超大規模資料中心業者洽談新的資料中心ASIC專案,預期未來相關業務將快速成長。站在手機晶片廠商的角度,其實並不難理解聯發科轉向ASIC的原因。作為一家晶片設計公司,聯發科目前在手機晶片市場面臨激烈競爭,利潤率受到擠壓,而ASIC設計服務能為聯發科提供了更高的利潤率和更穩定的客戶關係,成為其擺脫手機晶片紅海競爭的關鍵突破口。高通的焦慮當聯發科在雲端ASIC市場收穫訂單時,同為手機晶片巨頭的高通卻顯得焦慮不安。這種焦慮並非無緣無故——它源於對單一業務模式的恐懼,源於手機市場增長放緩的現實,更源於錯失AI時代機遇的危機感。翻開高通2025財年第四季度的財報,表面上看業績並不算差:手機晶片業務營收69.6億美元,增長14%,汽車晶片業務營收10.5億美元,增長17%,物聯網業務18.1億美元,增長7%,授權業務營收下滑7%至14.1億美元,總營收達到112.7億美元,同比增長10%,超出市場預期。但漂亮的增長數字背後隱藏著巨大的隱憂。手機業務仍然佔據高通營收的62%以上,汽車和物聯網業務雖然在增長,但與手機業務相比仍然小一個數量級。更嚴峻的是,全球智慧型手機市場已經趨於飽和,增長率逐年放緩,競爭對手的產品也在不斷增強。稱汽車和物聯網為“三大支柱”之二有些牽強——手機業務仍是主要支柱,其他兩個業務充其量只是輔助支柱。目前而言,全球智慧型手機市場早已進入成熟期,出貨量增長放緩,產品同質化加劇;同時,聯發科在高端SoC上持續逼近,蘋果加速推進自研數據機,進一步削弱高通在iPhone陣營的長期確定性。一旦手機業務承壓,高通整體營收與利潤結構將面臨系統性衝擊。此外,高通的高利潤率的授權業務當季營收同比下滑7%,在全球OEM強化自研、專利協議趨於重新談判的背景下,這一“現金牛”的增長動能正在減弱,也對整體利潤結構帶來了潛在的壓力。更令管理層焦慮的是節奏問題。當博通、Marvell等公司已在定製AI晶片、雲端算力和高速互連領域拿下實質性大單,聯發科通過ASIC設計服務獲得GoogleTPU訂單時,高通仍然主要被市場視為“手機晶片公司”,在AI算力版圖中尚未形成清晰的收入貢獻。正因如此,高通開始反覆強調“端側 + 雲側”的雙線AI佈局,從驍龍平台的端側AI能力,延伸至汽車、IoT,再到計畫於2026年、2027年推出的AI200與AI250伺服器級加速晶片,試圖跳出手機紅海,進入更高天花板的算力市場。但問題恰恰在於——在AI真正形成規模性收入之前,高通仍必須依賴一個增長見頂、競爭加劇的手機市場來支撐當下的財報。這也是2025財年所暴露出的最大短板:財務表現穩健,卻缺乏結構性安全墊;戰略方向清晰,但業務重心尚未完成切換。收購能否解決問題?面對AI業務收入貢獻不足、增長引擎單一的現實,高通在過去幾年其實通過在汽車方面的投入取得了不錯的成績,但公司似乎還沒足夠的安全感。在2025年,他們明顯加快了通過併購補齊能力短板的節奏,試圖以資本換時間,為其AI轉型爭取窗口期:2025年3月,高通宣佈收購邊緣AI技術公司Edge Impulse;2025年6月,高通宣佈以24億美元收購SerDes(序列器/解串器)IP領導者Alphawave Semi;2025年10月,高通宣佈收購開源硬體和軟體專業公司Arduino;2025年12月,高通宣佈收購RISC-V技術初創公司Ventana Micro Systems……此時新的問題也隨著浮現:單靠“買買買”,就能解決問題嗎?事實上,高通對收購策略的信心,很大程度上源於2021年對Nuvia的成功收購。2021年,高通斥資14億美元收購了由前蘋果晶片架構師創立的初創公司Nuvia,獲得了定製的、相容Arm架構的Oryon CPU核心架構。這筆收購被證明是高通近年來最成功的投資之一。2024年,高通憑藉驍龍X系列處理器中的Oryon晶片,重振了其在PC市場的雄風,讓高通看到了擺脫手機單一業務的可能性。Oryon的大獲成功似乎讓高通管理層相信:通過收購獲得關鍵技術,比自主研發更快、更有效。但對比後我們就能發現,與收購Nuvia不同,2025年的收購更多解決的是“能力是否齊備”的問題,無論是Edge Impulse、Arduino,還是Ventana,它們的價值都高度依賴於後續產品整合和生態放大,本質上並不能直接幫助增加營收;而Alphawave雖能顯著增強高通在AI伺服器晶片上的技術底座,但真正轉化為規模化收入,仍需等待AI200、AI250等產品在2026年之後落地。這意味著,高通今年的收購還在解決從無到有的問題,無法在短期內改變公司的現金流與利潤仍然高度依賴手機業務的事實,它們更像是在為未來下注,而不是為當下解圍。這也讓我們不禁想起2013-2014年左右的英特爾。2013年,保羅·歐德寧在擔任CEO八年後卸任,布萊恩·科再奇接任CEO。當時英特爾的業績堪稱輝煌:2013年底銷售額為527.1億美元,營業收入為122.9億美元,淨利潤為96.2億美元,毛利率高達59.8%,其無疑是當時業績最好的半導體公司之一。然而,科再奇深感危機四伏。公司的大部分銷售額來自PC客戶端業務(PCCG:銷售額330.4億美元,營業利潤118.3億美元)和資料中心業務(DCG:銷售額112.4億美元,營業利潤51.6億美元),這意味著公司對x86處理器的依賴程度極高,非x86處理器相關的銷售額僅為40.9億美元,營業虧損高達24.5億美元。科再奇與英特爾董事會在任期初期便達成了一個高度一致、也極為嚴峻的判斷:一旦x86出現結構性問題,英特爾將失去生存根基。正是在這一共識之下,英特爾選擇以併購作為最激進、也是最直接的自救路徑,試圖通過外延式擴張為公司尋找新的增長曲線與技術支點。從2013年5月科再奇出任CEO,到2018年6月黯然離任的五年間,英特爾累計收購了約25至26家企業和業務部門,覆蓋網路處理、FPGA、AI計算、視覺感知與自動駕駛等多個方向。其中較具代表性的交易包括:2014年以6.5億美元收購LSI Axxia,2015年以3.45億美元收購Lantiq,同年以高達167億美元拿下FPGA巨頭Altera;2016年相繼收購Nervana Systems(約3.5–4.5億美元)與Movidius(4億美元),並在2017年以153億美元完成對Mobileye的重磅併購。僅這些公開披露的交易,累計金額就已高達約337–338億美元。那麼,這些巨額投資產生了什麼商業成果呢?答案令人沮喪:唯一剩下的成果是Movidius的AI引擎仍然被用於Core Ultra系列產品中,其餘的投資基本上都浪費掉了。Altera在分拆後以87.5億美元的價格將51%股份出售給Silver Lake,Mobileye在2022年IPO時估值約為170億美元,財務上雖然沒有虧損,但考慮到通貨膨脹等因素,實際上就是虧本買賣。對於英特爾而言,收購失敗的根本原因在於:試圖通過收購來解決戰略方向不清晰的問題。當公司不知道未來的方向在那裡時,就通過買買買來覆蓋所有可能性,結果是資源分散、整合失敗、戰略迷失。將高通的現狀與當年科再奇時代的英特爾對照來看,會發現兩者在戰略焦慮層面呈現出驚人的相似性。兩家公司都高度依賴單一核心業務——英特爾押注x86架構,高通幾乎將命運繫於手機晶片;一旦這一根基動搖,整個公司都會承壓。正因如此,雙方在業績尚未崩塌之際,管理層就已清晰感知危機,並選擇通過密集收購來加速多元化佈局,試圖在最短時間內培育新的業務支柱,以避險核心業務可能出現的系統性風險。但在執行路徑與所處環境上,高通與英特爾的境況已然不同。英特爾在五年內豪擲337–338億美元,收購25–26家公司,下注激進卻整合成效有限;相比之下,高通的併購明顯更加克制,已披露的最大交易僅為24億美元收購Alphawave,同時在Nuvia的整合上展現出更強的執行力,Oryon CPU已成功實現商業化落地。更重要的是,高通所面對的是一場路徑更為清晰的AI浪潮,相比英特爾當年應對移動網際網路衝擊時的猶疑與錯位,當前的市場機會更加明確、需求也更具確定性。但真正的懸念在於:高通能否找到清晰的戰略方向?從2025年的一系列動作來看,答案並不樂觀。高通AI晶片業務實際進展相當緩慢。今年5月,高通宣佈與沙烏地阿拉伯的Humain公司合作,為該地區的資料中心提供AI推理晶片。Humain承諾部署最多可使用200兆瓦電力的系統。但除此之外,高通尚未公佈其他重要客戶。而在收購規劃上,高通同時在物聯網(Arduino、Edge Impulse)、PC(Oryon)、伺服器(Alphawave、Ventana)、AI晶片(AI200/AI250)等多個方向發力,但每個方向都缺乏足夠的資源投入和清晰的路線圖。以Alphawave收購為例。高通花費24億美元收購這家SerDes IP供應商,理由是補齊資料中心關鍵IP。這個邏輯看似成立——高通確實需要SerDes技術來進軍資料中心市場。但問題在於,Alphawave不只是IP公司,它還有ASIC設計服務業務。高通是否真的打算進軍ASIC設計服務市場,與博通、聯發科競爭?如果是,為何在新聞稿中隻字未提?如果不是,那麼這部分業務的工程師將成為推進高通自身伺服器業務的瓶頸。這種戰略模糊性,正是英特爾當年的問題所在。結語如果把聯發科與高通直接對照,會發現兩條截然不同的路徑。聯發科選擇的是一條“窄而深”的路線:在雲端 AI 晶片浪潮中並不追求全面鋪開,而是牢牢鎖定 ASIC 設計服務這一細分賽道,把 SerDes 等關鍵能力做到極致,並通過與台積電的深度協同,將技術能力轉化為可量產、可交付的產品。更重要的是,它並未急於擴張邊界,而是圍繞Google、Meta 等頭部客戶持續打磨方案,從第一代產品穩步推進到下一代,在真實訂單和長期合作中建立起自己的位置。反觀高通,則更像是在多重不確定性中反覆試探方向。頻繁的收購動作表面上覆蓋了物聯網、邊緣 AI、EDA、互連等多個環節,但缺乏一條清晰的主線將這些資產真正串聯起來,協同效應始終模糊。AI200、AI250 等產品推進節奏落後於競爭對手,關鍵客戶背書遲遲未現;業務版圖橫跨 PC、伺服器、AI 晶片和物聯網,卻始終未能在任何一個新領域形成決定性突破。聯發科與高通的分化,折射出 AI 時代半導體競爭的基本邏輯正在發生變化。專注往往勝過多元,真正的護城河來自對核心技術的持續深挖;客戶關係的重要性正在超過單一產品,定製化能力和長期協作比“規格領先”更能帶來確定性收入;執行與交付比宏大的戰略敘事更關鍵,而收購本身從來不是答案,整合能力才決定成敗。時間窗口正在迅速縮小。當聯發科已經開始從Google TPU 相關訂單中獲得真金白銀的回報時,高通仍在為 2026 年、2027 年的產品節奏做準備。在 AI 晶片這樣高度競速的市場中,這種時間差很可能直接轉化為機會成本。AI 時代的競爭,早已不只是技術參數的比拚,而是戰略選擇、執行效率和生態整合能力的綜合較量。聯發科的進展與高通的焦慮,正是這場較量最直觀的註腳。 (半導體行業觀察)
共識逐漸形成:Google是最大的β
先說個題外話。今天看到一個陶哲軒與兒子對話講AI的視訊,其中有一段很有意思,是對於AI和數學、科學之間關係的比方。陶哲軒說:“我非常喜歡打的一個比方是:數學與科學就像飲用水。我們都需要優質的飲用水,而當前的科研產出就像一個水龍頭,它能流出一些可以飲用的水,但流速非常緩慢。(可以想像過濾水滴)而AI則像一根消防水帶,噴湧出巨量、高速的‘污水’,它無法直接飲用,但其量遠超過我們過去產出。所以我們需要的是一套過濾器,用以清除所有雜質,從而產出大量‘可飲用的’研究成果。在數學領域,我認為我們很有機會實現這一點,因為我們對驗證非常、非常在行。一個多世紀以來,我們已經理解了邏輯與數學的法則,甚至已經教會電腦如何檢驗輸出。科學領域則有實驗、臨床試驗和模擬模擬,這些雖不如形式化證明那樣嚴謹可靠,但我認為它們同樣可以類似的方式,用來過濾人工智慧的產出,確保其可信。所以我希望未來能從數學領域入手,探索如何在數學中安全使用人工智慧。而我們從中獲得的許多經驗,將能推廣至更廣泛的科學實踐中。”……這個比喻很有意思,而且角度很獨特,從頂尖數學家的角度提到了AI提高生產力的本質:大力出奇蹟,但頂尖工作不可靠,需要人類的智慧,而且可以產出比之前大量的多的頂級成果。最後會說一下陶哲軒的類比,先回到主題。市場最近有明顯的脈博,最近主要AI產業情緒都聚焦在Google方向,尤其是今天,沾谷就起飛。我不聊小作文這個那個,說說“為什麼光會如此之強”,是產業真的有巨大變化還是其他因素?以及,為什麼“蹭上Google就起飛”…聊4個話題(之前好幾篇文章都在寫Google以及TPU,這裡就不多說了)。1,為什麼“蹭上Google就起飛”?因為巨大的共識正在形成:Google引領AI產業前沿的推進,是2026年最大的β 。中午的內容:對於Google鏈的重視,我們已經討論過很多。Google的邏輯感興趣的朋友看之前文章G最近都在討論Google,一大堆,這裡就不廢話了。貼一個之前的總結:……最近Google又有了很大的進展:(1)首先是廣告。明年Gemini中會加入廣告。有人會說,OpenAI的廣告策略被噴夠嗆,Gemini在趟渾水。但根本問題在於OpenAI的廣告策略太激進,整體產品整合度不高、定價過貴的情況下,廣告就佔了太大的份量。而Gemini因為可以整合大量的Google應用,將Google 搜尋的使用者通過“免掉20美金/月”的方式匯入Gemini非常現實。即使在老美,很多人口口聲聲說不喜歡廣告,但他們中寧可看廣告也不願花20美金的佔絕大多數。這讓Gemini成為Google整個AI生態系統中可盈利的前端。(2)通用具身智能體開始“多才多藝”,不依賴指令可以實現自我進化Google DeepMind最近悄咪咪的發了個大論文:SIMA2:面向虛擬世界的通用具身智能體。論文提到:“我們推出SIMA2,這是一款通用型實體代理,能夠理解和在種類繁多的3D虛擬世界中進行操作。基於Gemini基礎模型建構而成的SIMA2,標誌著在實體環境中實現主動,目標導向互動方面邁出了重要一步。與以往僅限於處理簡單語言指令(如SIMA1)的工作不同,SIMA2扮演著互動夥伴的角色,能夠對高級目標進行推理,與使用者進行對話,並處理通過語言和圖像形式給出的複雜指令。在多樣化的遊戲場景中,SIMA2顯著拉近了與人類表現之間的差距,並展現出對先前未見環境的強大泛化能力,同時保留了基礎模型的核心推理能力。此外,我們還展現了進行開放式自我提升的能力:通過利用Gemini來生成任務並行放獎勵,SIMA2能夠自主地從零開始在新環境中學習新技能。這項工作為建立既能適應虛擬環境,最終又能適用於實體世界的多才多藝且持續學習的智能體開闢了一條可行路徑。”……這裡的SIMA2不僅玩遊戲玩得非常好,而且它正在縮小人類直覺和機器行為之間的根本性認知差距,可以通過“目標指向、跨環境學習來實現自我提升”。大概就是我們“根據自我認識、同時通過自我學習”實現一項專業技能的路徑。具體能力上,SIMA2已經極大的縮小了和人類的差距:實際上,Google想把SIMA2打造成“一種人類世界的架構”。在這種架構下,Agent不再等待指令,SIMA2可以看作我們敲開了自主能力時代的大門。舉個例子,如果現在的Agent,我們理解的需求是:幫我買個手機。那麼SIMA2打造的是一個私人助理:幫你安排好每天的早飯、定好行程、約好會面地點,同時因為知道你手機容量不足,主動幫你安排好了一部新手機,供你隨時更換。而且都是成套的自主行為,不需要你交代具體做什麼,SIMA2可以完成複雜的完整任務,你只需要告訴Agent,安排好我明天日常的工作日程,並處理相關任務,而不用“發個郵件給某某”、“與某某溝通什麼事情”、“幫我預定中午的雙人午餐”等等…SIMA2就是你的真正的助理,而且可以自我學習,能越做越好。當然,現在這一切發生在遊戲裡。但很顯然,Google正在快速的建構自己的AI技術->產品->利潤飛輪。我們看今年下半年的使用者增長:Gemini在新增使用者總數方面也已經與ChatGPT展開全面PK,9月份超過了ChatGPT,10月份緊隨其後位居第二,11月份又超過了ChatGPT:當Google跑通AI的整個鏈條,那麼Google將持續爆發。一旦形成共識,Google鏈都將享受巨大的共識溢價。2,Google最核心競爭力在TPU,而TPU成功的關鍵在於OCS粘一段之前的內容:Google TPU不同於其他ASIC最大的關鍵就是光互聯,對於高端光模組的需求暴增,同時OCS交換機為 TPU提供了互聯的巨大成本和功耗優勢,Google可以通過非常激進的競爭策略贏得這場競爭。…結論:(1)Gemini 3是Google首次擁有SOTA或SOTA Par的模型,這意味著Google已經在AI模型競賽中從躍升成為領先者,至少並駕齊驅(GPT-5.2重回SOTA,但領先優勢不大);(2)Gemini 3+TPU,以及GCP業務的加速,讓Google可以繼續席捲使用者,最近在印度和OpenAI通過免費的方式吸引客戶,就是明確的訊號;(3)Google成為贏家逐漸成為共識,Google鏈會持續享受共識溢價,對利多極其敏感:臨近年底,值得興奮的事兒不多,市場也趨於保守。但無論如何,Google鏈的挖掘,依然是今年剩下一點時間,以及明年的最重頭戲,我們將持續保持跟蹤。 (橙子不糊塗)
Google終於對輝達“護城河”下手!聯合Meta進軍軟體
據路透社報導,知情人士透露,Alphabet旗下的Google正在制定一項新計畫,旨在使其人工智慧晶片更好地運行PyTorch(全球使用最廣泛的人工智慧軟體框架),此舉旨在削弱輝達在人工智慧計算市場長期佔據的主導地位。這是Google雄心勃勃計畫的一部分,旨在使其張量處理單元(TPU)成為輝達市場領先的GPU的有力競爭對手。TPU的銷售已成為Google雲收入的關鍵增長引擎,Google希望借此向投資者證明其人工智慧投資正在產生回報。但僅靠硬體不足以推動普及。消息人士稱,這項內部代號為“TorchTPU”的新計畫旨在消除阻礙TPU晶片普及的關鍵障礙,使其完全相容並方便開發者使用,從而惠及那些已經使用PyTorch軟體建構技術基礎設施的客戶。一些知情人士還透露,Google正在考慮開源部分軟體,以加快客戶採用速度。消息人士稱,與之前嘗試在TPU上支援PyTorch相比,Google投入了更多的組織關注、資源和戰略重視TorchTPU,因為希望採用這些晶片但認為軟體堆疊是瓶頸的公司的需求不斷增長。PyTorch是一個開放原始碼專案,由Meta Platforms大力支援,是開發者建構人工智慧模型時最廣泛使用的工具之一。在矽谷,很少有開發者會編寫輝達、AMD 或Google等公司晶片實際執行的每一行程式碼。相反,這些開發者依賴於像PyTorch這樣的工具。PyTorch是一系列預先編寫的程式碼庫和框架的集合,可以自動完成人工智慧軟體開發中的許多常見任務。PyTorch最初發佈於2016年,其發展歷程與輝達的CUDA開發密切相關。一些華爾街分析師認為,CUDA是輝達抵禦競爭對手的最強屏障,堪稱“護城河”。輝達的工程師們多年來一直致力於確保使用PyTorch開發的軟體在其晶片上以儘可能高的速度和效率運行。相比之下,Google長期以來一直讓其龐大的內部軟體開發團隊使用名為Jax的不同程式碼框架,其TPU晶片則使用名為XLA的工具來最佳化程式碼運行。Google自身的大部分AI軟體棧和性能最佳化都是圍繞Jax建構的,這進一步拉大了Google晶片的實際使用方式與客戶實際使用方式之間的差距。Google雲發言人沒有對該項目的具體細節發表評論,但證實將為客戶提供更多選擇。發言人表示:“我們看到市場對TPU和GPU基礎設施的需求都在大幅增長,而且增長速度還在加快。我們的重點是提供開發者所需的靈活性和可擴展性,無論他們選擇使用那種硬體進行開發。”Alphabet長期以來一直將絕大部分自研晶片(即TPU)僅供內部使用。這種情況在2022年發生了改變,當時Google的雲端運算部門成功遊說,獲得了對TPU銷售部門的監管權。此舉大幅增加了Google雲的TPU分配量,隨著客戶對人工智慧的興趣日益濃厚,Google也開始尋求通過擴大TPU的生產和銷售來從中獲利,並將TPU推向外部客戶。但由於全球大多數人工智慧開發者使用的PyTorch框架與Google晶片目前最佳化運行的Jax框架之間存在不匹配,大多數開發者無法輕易地採用Google晶片並使其性能達到輝達晶片的水平,除非進行大量的額外工程工作。在瞬息萬變的人工智慧競賽中,這樣的工作需要耗費時間和金錢。如果成功,Google的“TorchTPU”計畫將顯著降低企業尋找輝達GPU替代方案的成本。輝達的統治地位不僅得益於其硬體,也得益於其CUDA軟體生態系統。CUDA軟體生態系統深度嵌入PyTorch,並已成為企業訓練和運行大型AI模型的默認方法。消息人士稱,企業客戶一直告訴Google,TPU更難應用於AI工作負載,因為TPU歷來要求開發人員切換到Jax(Google內部偏愛的機器學習框架),而不是大多數AI開發人員已經在使用的PyTorch。據消息人士透露,為了加快開發速度,Google正與PyTorch的建立者和管理者Meta密切合作。這兩家科技巨頭一直在商討Meta獲取更多TPU的方案。Meta早期提供的服務以Google管理服務的形式呈現,客戶(例如Meta)安裝Google設計的晶片來運行Google的軟體和模型,Google則提供營運支援。知情人士透露,Meta對開發能夠簡化TPU運行的軟體抱有戰略興趣,旨在降低推理成本,並使其人工智慧基礎設施擺脫對輝達GPU的依賴,從而提升談判優勢。今年,Google開始直接向客戶的資料中心銷售TPU,而不是限制在其自有雲平台上使用。本月,Google老將Amin Vahdat被任命為人工智慧基礎設施負責人,直接向首席執行長桑達爾·皮查伊匯報工作。Google需要這種基礎設施,既可以運行自己的AI產品(包括Gemini聊天機器人和AI驅動的搜尋),也可以為Google雲的客戶提供服務,Google雲向Anthropic等公司出售TPU的存取權。 (北美商業見聞)